#AI 工廠
IQ 即將貶值?輝達 CEO 黃仁勳:未來唯一的稀缺資源是這個
一個時代的終結,一個時代的開始輝達 CEO 黃仁勳(Jensen Huang)提出了一個足以顛覆我們對未來認知基石的觀點:“‘聰明’即將變得一文不值 (Smart is going to be worthless)”。這句話並非危言聳聽,而是對一個正在發生的深刻變革的精準概括——智力的工業化。長期以來,以 IQ(智商)為代表的原始認知處理能力,是知識經濟的硬通貨。然而,人工智慧(AI)的崛起正在將“智力”——即快速處理資訊和邏輯輸出的能力——變成一種像電力一樣廉價、可隨時獲取的商品(Commodity)。當一種核心生產要素的邊際成本趨向於零,建立其上的整個價值體系必然面臨重構。本文將深入剖析黃仁勳的這一核心洞察,系統性地探討在 IQ 迅速“通貨膨脹”的時代,什麼才是未來真正稀缺、真正有價值的資源。這不僅是對未來趨勢的預測,更是一份為個人與企業在認知價值倒轉的歷史懸崖邊,尋找全新價值錨點的戰略指南。第一章:為什麼“聰明”不值錢了?思維的工業化革命經濟價值的歷史,是一部不斷解除約束的歷史——第一次工業革命用機器解除了對“肌肉力量”的約束,而我們正身處的 AI 革命,則正在解除對“認知肌肉”的約束。我們正處在下一場歷史性變革的懸崖邊——認知能力的商品化。黃仁勳用一個生動的比喻描繪了這一圖景:“AI 工廠 (AI Factories)”。在他看來,現代資料中心已不再是資訊的儲存倉庫,而是真正的生產車間。它們像傳統工廠一樣,吸納“原材料”(海量資料與電力),通過加速計算的“生產線”,源源不斷地批次產出一種全新的工業品——以 Token(詞元)形式呈現的“工業化智力”。這一轉變的經濟學含義是顛覆性的:在過去十年中,加速計算將處理速度提高了驚人的一百萬倍。當一種生產要素的成本發生如此劇烈的坍塌時,它就從一種稀缺的競爭優勢,轉變為一種無處不在的基礎商品。智力的邊際成本,正史無前例地趨向於零。黃仁勳進一步將這一新階段命名為“薇拉·魯賓時代 (The Vera Rubin Era)”。這個時代不再僅僅以更快地生成 Token 為特徵,而是以“代理 AI (Agentic AI)”和“物理 AI (Physical AI)”的崛起為標誌。AI 不再是被動的工具,而是能夠執行多步驟推理、規劃並與物理世界互動的代理。這種轉變進一步加速了死記硬背式 IQ 的貶值,因為它不僅取代了知識的記憶,更取代了項目管理的執行功能。“IQ 即將貶值”的論斷,正是建立在智力與生物大腦解綁的基礎之上。如果“聰明”的定義是快速處理資訊、記憶海量事實並將其綜合為邏輯輸出,那麼這種能力現在已經成為一種可以按 Token 計費的雲服務。這與人類體力的歷史軌跡如出一轍:機器的出現,使原始體力不再是決定經濟成功的核心要素。今天,我們正在建造在狹義計算意義上比人類“聰明”無限倍的機器。在一個每個人的桌面上都配備了天才級 AI 顧問的世界裡,單純擁有高智商所帶來的相對優勢正在被迅速抹平。既然傳統的“聰明”正在迅速通貨膨脹,那麼未來的價值高地又將建立在那些新的基石之上?第二章:AI 時代的新黃金:四大核心稀缺資源經濟學的基本原理告訴我們:當一種資源變得無限豐富時,價值會自動遷移到與之相鄰的約束條件或瓶頸之上。當 AI 讓“答案”變得廉價,價值便流向了那些無法被演算法輕易複製的人類特質。以下四大核心資源,構成了未來價值的新黃金。稀缺資源(一):品味與判斷力 (Taste & Judgment)在 AI 時代,“品味”被重新定義為一種嚴格的工程紀律。它不再是主觀的審美偏好,而是在無限的可能性中施加正確約束、做出最佳選擇的能力。黃仁勳的哲學將其技術化為“約束工藝 (Constraint Craft)”——即建構正確約束的工程學。當 AI 可以在瞬間生成 1000 個設計方案時,瓶頸立刻從“創造(Creation)”轉移到了“選擇(Selection)”。真正的價值,掌握在那個能夠審視 1000 個選項,並果斷指出“就是這一個”的人手中。這種選擇需要綜合背景、文化和直覺,是當前 AI 基於機率預測的模式難以企及的深層判斷力。這一轉變催生了新的專業範式,可稱之為“裡克·魯賓模型 (Rick Rubin Model)”。傳奇音樂製作人裡克·魯賓的價值不在於親自演奏樂器,而在於他卓越的“聽”和“選”的能力。與之類似,過去的“10倍工程師”以產出(寫程式碼快)定義,而未來的“10倍工程師”將以判斷力(能最有效地指導 AI 並最無情地過濾掉低品質輸出)定義。他們是“策展人”(Curator),而非單純的“創作者”。稀缺資源(二):提問的藝術 (The Art of Inquiry)“作為CEO,我大部分時間都在提問。”黃仁勳的這句話,精準地指出了提問這一行為在未來的核心地位。在一個答案唾手可得的世界裡,價值從“擁有答案”轉移到了“提出正確的問題”。高級的“提示(Prompting)”遠非尋找奇技淫巧的關鍵詞,而是一門建構思維鏈條、進行蘇格拉底式追問的認知學科。儘管算力在膨脹,但**“語境(Context)”是新的瓶頸**。AI 只能基於給定的語境進行回答,而人類的核心任務,正是充當現實世界與 AI 模型之間的“語境橋樑”,為其提供解決問題所需的關鍵資訊、意圖和約束。沒有人類的好問題作為起點,再強大的 GPU 也只是昂貴的加熱器。稀缺資源(三):物理主權 (Physical Sovereignty)AI 革命並非虛無縹緲地存在於數字世界,它受到能源、基礎設施等物理資源的嚴格限制。黃仁勳將 AI 的技術霸權結構描述為一個“五層蛋糕”,並以此為框架發出了嚴峻的地緣政治警告。在蛋糕的頂層(應用、模型),美國依然領先;在中間層(晶片),美國擁有絕對主導地位。然而,在構成蛋糕基座的最關鍵兩層——基礎設施 (Infra) 和 能源 (Energy)——美國正面臨致命瓶頸。黃仁勳明確指出,在資料中心建設速度上,美國因監管等問題需要三年,而中國則快得多,這形成了關鍵的“速度危機”。在能源層面,他認為中國擁有兩倍於美國的能源產能,這構成了 AI 時代最根本的戰略優勢。這場 AI 競賽已不僅是軟體戰,更是基建戰。未來,千兆瓦(Gigawatts)的稀缺性,將比千兆字節(Gigabytes)的稀缺性更具決定性。稀缺資源(四):生物共情 (Biological Empathy)OpenAI CEO Sam Altman 認為,那些需要深度人類連接的工作,如護理、教學,難以被 AI 完全取代,因為服務的價值不僅在於任務完成得如何,更在於它是由一個真正的人來完成的。AI 替代的規律正在浮現:凡是交易性的智力互動(如資訊查詢類的客服)都將被商品化;凡是關係性的智力互動(如情感關懷)都將產生溢價。 儘管 AI 可以完美地“模擬”共情的機制(即“ELIZA 效應”),但它無法擁有真實的“利害關係(Stakes)”。一個關鍵的區別在於,AI 沒有與我們共同的脆弱性——它不會死亡,不會生病,不會體驗真正的痛苦。因此,它的安慰永遠是一種表演,而非基於共同命運的理解。這種本質區別,構成了無法被程式碼踰越的人性護城河。面對這場深刻的價值重構,我們個人應如何調整自己的學習和成長路徑?第三章:未來生存指南:在新範式中重塑自我這不僅僅是一場理論探討,更是關乎每個人未來職業和學習路徑的實用指南。在新範式下,我們必須對個人發展的方向進行戰略性調整。分析職業角色轉變:從“碼農”到“領域專家”黃仁勳“沒人需要去程式設計”的論斷曾引發巨大爭議。其本意並非程式設計無用,而是指“將人類意圖翻譯成機器程式碼”這一純粹的翻譯技能,正在被 AI 迅速商品化。未來的核心競爭力將不再是工具的使用技巧,而是深厚的領域專業知識(Domain Expertise)。正如黃仁勳所說,如果你是一名生物學家,請更深入地學習生物學。AI 會負責編寫模擬蛋白質所需的複雜程式碼,但你必須知道要研究那個蛋白質,以及為什麼要研究它。價值的源頭,在於你對該領域的深刻理解和洞察。洞察“基礎設施階級”的崛起結合前文的“物理主權”概念,一個全新的高價值群體正在崛起——“基礎設施階級”。隨著 AI 從數字世界走向物理世界(機器人、自動駕駛),那些能夠建設和維護物理基礎設施的人才,其價值將顯著提升。這包括能源工程師、機器人技師、資料中心建築專家等。虛擬世界可以是無限的,但物理世界是頑固的,解決物理世界的瓶頸將創造巨大的價值。探討新的評價標準:從“智商”到“毅力 (Grit)”我們面臨一個尖銳的評價悖論:當 AI 可以在五年內通過所有人類考試時,我們該如何篩選和衡量“優秀”?傳統的篩選機制,如標準化測試(高考、SATs)和技術演算法面試,作為 IQ 的代理指標,正在迅速失效。黃仁勳給出了他的答案:未來企業需要測試的是“毅力(Grit)”和從“苦難(Suffering)”中磨練出的韌性。在一個答案唾手可得的世界裡,知識本身不再稀缺,而忍受探索過程的痛苦、面對未知的勇氣和從失敗中學習的能力,本身就是一種核心競爭力。未來的精英教育,可能更側重於斯巴達式的性格錘煉,而非雅典式的知識灌輸。個人發展的範式正在從知識的獲取與保留,轉向知識的應用與綜合,從追求標準答案轉向擁抱複雜問題。結論:歡迎來到判斷力時代黃仁勳關於“聰明即將一文不值”的預言,並非宣告人類的終結,而是宣告一場深刻的價值遷移的開始。我們正在見證價值的核心,從可被量化的原始智力(IQ),遷移至那些更難定義、更難衡量,但卻更具根本人性的品質。未來的稀缺資源,不再是更高的 IQ 分數,而是:千兆瓦(Gigawatts):物理世界的能量主權。好問題(Good Questions):驅動推理的認知槓桿。好品味(Good Taste):在無限選項中進行價值選擇的判斷力。真連接(True Connection):基於生物共情的信任紐帶。在這個新時代,僅僅做一個“聰明人”已遠遠不夠。未來屬於那些有品味、會提問、有韌性且深具人性的人。這並非技術的終點,而是人文精神以一種前所未有的、更具挑戰性的方式,重新回歸舞台中央。 (矽星人 AI 日記)
價格內捲成為過去式 AI正讓中國工廠靠“可靠”賺錢
中國產業帶上的商家正在發生那些變化?深圳一位深耕3C配件十餘年的老闆,在2025年借助AI監控海外趨勢、分析差評並生成爆款視訊,一款改良後的手機支架在三個月內售出5000萬元,淨利超過2000萬元,賺取了“過去16年利潤總和的兩倍多”。這並非孤例。在東莞,一位從房地產轉型、毫無電商經驗的90後,借助AI選品與圖片處理,開設1688店舖僅15天便推出37款新品,迅速沖上品類榜首;在蕪湖,一家僅6人的工貿一體鞋企,通過全鏈路接入AI,實現了年銷售額1.5億元的“人效奇蹟”。這些散落在全國各產業帶的故事,呈現出一幅中國產業正在發生的升級圖景。近日,阿里巴巴旗下源頭廠貨平台1688與億邦智庫聯合發佈的《2025中國產業帶發展趨勢報告》顯示,源頭工廠正告別依賴經驗與規模的傳統模式,轉向以使用者為中心、AI驅動的智能經營體系。“AI正從降本提效的‘生意搭子’,向重塑供應鏈的‘智能中樞’進化。”報告如此定義這一階段性跨越。在接受記者採訪時,1688商家發展中心總經理王強也給出了這樣的判斷,在AI的時代裡,未來的競爭不是卷價格,而是卷確定性、卷邊際成本、卷可控性。發展現狀:K型分化與結構性位移,合規與AI成生存雙刃劍“2025年產業帶的復甦,是一個‘K型復甦’。”王強在採訪中開門見山地總結道。這意味著復甦並非雨露均霑,而是呈現出殘酷而顯著的分化態勢。約20%—30%的頭部商家,實現了訂單與利潤的雙增長,增速超過產業帶平均水平。與之相對,依賴傳統管道、資訊差和純代工模式的商家,則持續承壓。王強以親身走訪的經歷為例:“我去臨沂見一個90後的建材老闆,一年流水3個億,但利潤不到1000萬。他每天的狀態是‘晚上陪客戶喝大酒,白天睡覺’,傳統的銷售和關係維護方式讓他覺得非常痛苦。”這種痛苦在2025年10月後愈加明顯。隨著電商平台向稅務部門推送商家交易資料成為常態,合規成本從可選項變為生存標配。“這三股力量——合規成為標配成本、低增速高對比的市場環境、AI帶來的生產力變革——正在不斷擠壓商家的生意空間,並導致底層邏輯徹底改變。”王強分析道,“未來的競爭不再是單純的價格戰,而是比誰更有確定性、誰的邊際成本更低、誰更可控。”這種底層邏輯的改變,在1688公共事務部總經理范敏看來,是一場“從數位化向智能化的範式轉變”。她解讀報告時指出,AI to B的本質並非簡單技術疊加,而是通過人工智慧重塑產業運行的核心邏輯與價值分配機制,系統性化解產業複雜度難題。《報告》進一步提出了AI引發的“三大結構性位移”,范敏在現場詳細闡述:“第一,是決策機制的位移。 過去工廠老闆靠摸單子、看檔口做決定,今天則依託於以AI巨量資料為模型的‘產業大腦’。比如一家足浴用品工廠,根據全球需求熱力圖、TikTok熱詞甚至天氣資料,發現‘寵物保暖襪’的商機,72小時內就能完成打樣上品。”“第二,是組織形態的位移。 從鏈式推進變為由AI作為隱形調度者。深圳一家3C數位工廠接入小單快反系統後,訂單履約周期壓縮到不到一周,人力響應從小時級升級到秒級。”“第三,是能力基因的位移。 核心競爭力從模具、老師傅經驗,轉向快速訓練和迭代專屬工廠AI模型的能力。”區域格局也隨之演變,形成“東高、中快、西廣”的梯度發展態勢。范敏引入了“AI濃度梯度”的概念:珠三角、長三角為“AI原生先導區”,已建構全鏈路AI工作流;中部製造業重鎮為“AI融合成長區”,聚焦效率提升;西部及東北成長性區域為政策引導區,起點低但增速高。“今天製造業的空間競爭,已從成本窪地競爭轉向AI適配度的競爭。”范敏總結道。AI原生下的核心趨勢:訂單模式、價值重構與“廠二代”崛起產業帶的深層變革,直接體現在訂單模式與價值創造邏輯的重構上。訂單模式正經歷一場“從推到拉”的革命。 王強觀察到,增長的商家共性在於“能快速感知使用者趨勢,並轉化為產品迭代,具備柔性定製和小單快反能力”。這背後是訂單邏輯的根本反轉。范敏指出:“傳統的B2B是‘推式’批發,今天我們看到的最大變化是‘拉式’訂單——由終端消費需求觸發,AI實現設計、工廠響應、平台匹配的即時履約閉環。”她透露了一個關鍵資料:2025年,1688平台上的反向定製訂單佔比已近四分之一,且帶來了兩位數的利潤增長。這催生了兩類典型的產業帶新形態。范敏分析道:“一類是以義烏為代表的‘全能需求樞紐’,它已成為全球買家的AI需求翻譯中心,能處理多語言、碎片化訂單並自動生成報價履約方案。另一類是以深圳華強北、廣州美妝為代表的‘專業型能力高地’,它們將產業知識通過AI轉化為可定價的數位資產。”價值競爭維度從“價格力”擴展到“產品力+服務力+確定性”。 “價格內卷正在終結。”《報告》明確指出。王強對此深有感觸:“在B端生意裡,當服務沒有確定性時,價格再低也沒用,一次售後問題可能讓買家虧掉全部利潤。”因此,新的競爭維度下,“品牌”的內涵正從廣告塑造的影響力,轉向可驗證的產品性能、可追溯的品質流程與可感知的服務體驗。1688平台據此推出了“1%嚴選”機制。范敏解釋:“這不是銷量榜,而是基於多維演算法建立的‘產品力信用分’。入選商品的復購率是普通商品的近三倍。產品力的最終形態,是在工廠和買家之間建立起一套由AI持續加固的信任回路。”在這場升級中,“廠二代”及新興創業者成為不可忽視的驅動力量。多位年輕的“廠二代”也分享了他們與AI“相愛相殺”的故事。從羊絨大衣廠接班人黃渝湘,到用AI“奪回一切”的圍巾廠主盛佳儀,再到自嘲“被AI開除”的義烏包裝商方振安,他們的共同特點是:擁抱技術、善於學習、用AI破解傳統經營難題。“AI不會催我婚,但會催我發貨。AI不懂愛情是什麼,但懂客戶想要什麼。”黃渝湘幽默而又精準地道出了新一代經營者的務實態度。王強也觀察到,深度使用AI的企業老闆多具有技術或產品背景,學習力強且開放,“他們正在推動從‘人指揮AI’到‘AI指導人’的轉變”。驅動因素:技術普惠、平台轉向與政策東風產業帶能邁向AI原生,是多方面因素共同作用的結果。首先,AI技術的實用化與平台化是關鍵引擎。 AI不再僅僅是概念,而是轉化為“誠信通AI版”等可觸達百萬商家的產品。王強分享了一組資料:“用了1688誠信通AI版的商家,訪客數提升20%,詢盤數提升15%,線上交易額提升73%。”他解釋其底層邏輯:“AI驅動的經營,本質是去更好地滿足使用者需求、承接轉化,而傳統營運可能只是跟隨平台規則,兩者有本質區別。”其次,平台角色從“流量營運者”向“生態共建者”深刻轉變。王強坦言,過去一年平台清退了近30萬家無貨源、黑灰產及刷單店舖。“我們曾擔心供給減少,但結果反而吸引了更多優質製造商家入駐。平台正從會玩流量的內卷,走向商品價格力和服務的競爭。” 他同時介紹了“1688共鏈品牌計畫”,與具備產品力和R標的源頭工廠深度繫結,從博弈關係轉向責任共擔、利益共享,共同打造To B供應鏈品牌。此外,明確的政策導向與政企合作為發展鋪路。范敏指出,各級政策正積極引導市場篩選出能創造真實價值的有效工廠。王強補充了實踐層面:“2025年我們與浙江多地政府做了‘AI+產業’對接大會,也與中山政府合作推進製造業數位化轉型。未來將繼續深化與長三角、珠三角174個百億級產業帶的合作。”平台自身也利用其連接消費與產業網際網路的資料優勢,建構產業知識圖譜。范敏強調了1688的獨特優勢:“我們積累的是產業鏈上多環節、多市場主體間的資料資產,這讓我們能更好地最佳化整個產業鏈的流通效率,降低社會性無效庫存。”未來方向:邁向“AI原生”時代與全球新佈局對於未來中國產業帶的發展,AI將起到不可忽視的推動作用。而另一方面,這也讓商家的全球市場佈局出現新的機遇。在平台方面看來,AI將經歷從“外掛”“共生”到“原生”的三階段演進。 范敏詳細闡述了這一路線圖:“當前是‘AI外掛期’(2024-2025),AI作為獨立工具解決人效瓶頸。下一步是‘AI共生期’(2026-2027),人機協同工作,AI與設計師、採購經理共同決策。未來將進入‘AI原生期’(2028開始),通過數字孿生系統,AI自主識別市場變化、模擬生產影響、生成執行方案並持續最佳化。”她透露,平台上已有數十家工廠進入共生期試點。產業帶內部將持續最佳化,新商業模式加速湧現。 王強判斷,“供應鏈品牌化”是重要出路。很多商家正從單純賣貨轉向提供一站式跨境解決方案。我們今年推出的‘搶跑計畫’和供應鏈聯營,就是希望幫助有開款能力的工廠和一手貨源組合商,抓住年初消費紅利,從白牌走向廠牌,再走向供應鏈品牌。全球化佈局從“商品出海”升級為“產能出海”與“柔性出海”。 面對跨國買家“中國+1”的供應鏈策略,《報告》強調,唯有具備卓越產品力、確定性服務力與AI跨境能力的工廠,才能贏得高附加值訂單。王強展望:“未來將從跨境電商走向產能出海。中國保留研發與核心部件生產,海外佈局組裝與交付,建構更具韌性的全球數字供應鏈。”王強總結道:“2026年可能也是比較難的一年,但既然我們已經看清楚了方向,那就全力以赴。開年即搶跑。” (環球Tech)
馬斯克談每年發射100萬噸AI衛星
馬斯克近日在社交平台X上闡述了大規模部署太空AI衛星的構想,計畫每年向太空發射總量達100萬噸的衛星,以實現每年在太空部署100吉瓦人工智慧運算能力的目標。他認為,這些衛星能為超大規模AI應用提供能源。馬斯克指出,搭載本地化AI計算的衛星,其結果將從低延遲的太陽同步軌道傳回,這將是3年內產生AI位元流的成本最低的方式。到目前為止,這也將是未來4年內實現規模擴張的最快路徑。馬斯克解釋稱,“在地球上已經很難找到簡單的電力來源。100萬噸/年的衛星,每顆衛星功率100千瓦,則每年可增加100吉瓦的AI算力,無需營運或維護成本,通過高頻寬雷射連接到星鏈(Starlink)星座。”馬斯克進一步指出,更高級的是在月球上建造衛星工廠,並使用大規模驅動器(電磁軌道炮)在不需要火箭的情況下將人工智慧衛星加速到月球逃逸速度。“這相當於每年100兆瓦特的人工智慧,並使成為卡爾達肖夫II型文明取得重大進展。”馬斯克在另一條帖子中補充道:“一旦月球上有了月球工廠、機器人和大規模驅動器,整個循環就會閉合,這個系統可能會與傳統貨幣脫鉤,並以瓦特和噸位為單位自主運行。”一位網友評論稱:“埃隆·馬斯克正在談論每年將100萬噸用於AI計算的星鏈衛星送入軌道。我們目前每年向軌道發射大約3000噸衛星,其中大部分已經是SpaceX的衛星。100萬噸意味著每天發射25艘以上的星艦飛船!”另一位網友翻出了馬斯克今年8月的一條帖子,“在大約6到7年的時間裡,星艦飛船將實現24小時內發射超過24次。”在11月與特斯拉投資者羅恩·巴倫(Ron Baron)的一次訪談中,馬斯克曾表示,他看到了一條可行的技術路徑,每年將100吉瓦的太陽能驅動的AI衛星送入軌道,並稱這可能是“大規模驅動和運行AI的最低成本方式”。作為參考,美國當前的平均用電負載約為460吉瓦。馬斯克還談到,隨著AI與機器人技術發展,“未來將會實現對人類需求的完全滿足”,所有人都能從中受益。對於未來的目標,他形容自己的願景是採取能夠“擴展意識到未來”的行動,推動人類探索其他星系,“像《星際迷航》那樣前往從未有人到過的地方”,並更深入理解宇宙本質。 (i商周)
黃仁勳:中美 AI 工廠賽,拼的是底座,不是矽谷
2025年12月4日,黃仁勳在華盛頓的一場訪談中,給AI產業競賽重新標定了坐標系。當主持人問及NVIDIA如何看待AI競爭格局時,黃仁勳的回答是:如果你沒有能源,你就沒有AI。不是大模型,不是AGI,不是演算法創新。他說,今天用於AI資料中心的GPU重兩噸,消耗20萬瓦,要價300萬美元。運行一個真正的AI資料中心,你得填滿一個足球場。AI 模型可以複製,AI 工廠不能。這場產業競賽的本質,不是誰的演算法更強,而是誰建得更快、電力充足、工廠批次落地。於是我們第一次清晰看見:AI競爭的真正戰場不在矽谷,而在作為底座的基礎設施。具體而言,是能源、晶片、平台、建廠速度和資本調度能力。誰能建出 AI 工廠,誰就是贏家。第一節|能源,才是AI工廠的底座黃仁勳在訪談裡,把能源放在了AI五層堆疊的最底端。他不是在打比方,這是產業事實: 如果我們沒有能源增長,這個產業就無法發展。01|為什麼能源成為第一層?傳統網際網路企業可以靠軟體迭代,AI工廠不行。模型吞吐量、訓練周期、推理規模,看上去是演算法問題,實質是電力問題。一台AI資料中心的GPU,是重達兩噸、耗電20萬瓦的工業裝置。而要把這些GPU跑起來,不是買幾台放機房,而是要建出一整套工業級電力系統。這就是他強調的:AI不是軟體革命,是能源革命。02|指數級需求,讓能源成為卡脖子環節NVIDIA每年都能把GPU能效拉升幾倍。但黃仁勳指出:性能增長是5到10倍,需求增長卻是1萬到100萬倍。這意味著什麼?意味著算力不是被研發速度卡住,而是被電力供應和廠區建設速度卡住。他坦言:我們正處在這項技術建設的初期,但需求已經遠遠超過基礎設施。AI的增長不是線性,是指數;而傳統能源體系的擴張速度,遠遠跟不上。這就是全球 AI 產業的根本矛盾。第二節|NVIDIA的護城河:平台,不是產品在第一節提到的五層堆疊中,黃仁勳把NVIDIA定位在最底層——平台公司,而不是應用開發者。這五層分別是:能源層(電力與基礎能源)晶片與系統層(硬體架構)基礎設施層(軟體+雲+土地+建築+資本能力)模型層(如ChatGPT、Claude、Gemini、Grok)應用層(自動駕駛、醫療、娛樂、金融、製造等場景)01|模型只在第四層,但我們只看到了它公眾眼中,AI是GPT、Claude、Sora,是發佈會、demo、token。但在黃仁勳的定義中,這些只是第四層,而且只是150萬個模型裡的幾個。真正的AI,早已不是只懂語言的系統,而是:懂基因的AI(藥物研發)懂物理運動的AI(機器人)懂長時間序列的AI(金融、天氣)懂多模態結構的AI(醫療、設計)這些模型的共用底座,不是某家公司的訓練技巧,而是平台堆疊+軟體生態+通用程式語言。02|平台的本質:讓別人造車,而不是自己做車廠黃仁勳直言:我們不製造自動駕駛汽車,但我們與世界上每一家自動駕駛汽車公司合作。我們不研發藥物,但每一家藥物研發公司都在用我們的平台。換句話說:NVIDIA的目標不是造出一個爆款產品,而是成為別人造產品時的工業基礎設施+開發工具鏈。就像英特爾支撐了PC生態,AWS重構了Web應用,黃仁勳想做的是:讓AI工廠的每一個環節,都跑在NVIDIA的堆疊上。03|CUDA:不是軟體,是平台語言外界以為NVIDIA的優勢是晶片性能,其實錯了。黃仁勳真正引以為傲的,是NVIDIA在25年前建構的一整套開發語言——CUDA。他說:“人們描述的護城河,其實不只是硬體,而是這些應用程式與我們之間的語言。”CUDA不是一段程式碼,而是全球AI工廠的通用語言。從晶片驅動,到建模工具,到深度學習框架,到圖像渲染系統,全在NVIDIA的語法裡。這意味著: 一旦開發者用CUDA寫了第一行程式碼, 一旦研究團隊用CUDA訓練了第一個模型, 一旦企業用CUDA部署了第一個AI服務,遷移成本就變得極高。04|護城河轉移:從產品能力,走向平台標準過去的競爭,拼誰模型大、誰跑得快。現在的戰爭,拼誰有平台語言、誰能讓AI工廠規模化複製。黃仁勳沒有說我們贏了,但他表示:“我們與世界上每一家AI公司合作,因為我們是那個平台。”這不是謙虛,是底氣。AI工業化的下半場,不是看誰發佈了什麼,而是看誰定義了什麼。第三節|AI工廠之戰:誰建得快,誰就贏當黃仁勳說AI的底座是能源時,他其實是在描述一場看不見的戰爭。這不是開源社區的博弈,也不是發佈會的比稿,而是一場必須靠混凝土、鋼筋、變壓器贏下來的競賽。“這不是ChatGPT對Claude,而是建廠速度對指數需求。”01|不只是買晶片,而是建工廠很多人以為買幾塊GPU就能做AI,但黃仁勳說:別以為我們做的是遊戲卡。真正的AI GPU,不是插在機箱裡的,而是:必須由高壓供電系統支撐必須放進專業冷卻架構必須在安全合規的廠房環境運行必須完成從資料、調度、訓練到推理的全流程閉環你不能只造晶片。你得有地、有電、有資金、有電網審批、有廠房、有散熱系統、有光纜接入、有跨國物流鏈。這一切,才能真正點亮AI。02|指數增長遇上行政審批:基建成為最大瓶頸黃仁勳透露了一個殘酷的現實:技術進步是指數級的,但基礎設施的建設速度卻卡在審批流程裡。土地批文卡一年;變壓器到貨要半年;跨州輸電網路審批更難以計時。他說得很克制,但警示意味十足:技術進步很快,但我們還在早期建設階段。也就是說,不是技術沒準備好,是基礎設施遠遠來不及。03|中美競速的真正變數:建廠速度美國技術一流,政策反應卻慢半拍。反觀中國,在建電、建廠、接網上的速度,成了全球AI工業最不能忽視的變數。這不是情緒判斷,而是現實級生產力差距:誰能三個月批下地誰能半年跑通100MW變電站誰能在一年內複製5座AI資料中心誰就能率先跑起來AI工業革命。04|矽谷沒輸在技術,而是輸在工業能力很多人以為這輪競爭拼的是誰有更好的AI研究員,誰能先發更大的模型。但在黃仁勳眼中,更核心的問題是:誰能在最短時間內,讓這些GPU開工。這些不是技術門檻,是工業能力門檻。黃仁勳沒有喊口號,但他的話已經把這場競爭的邏輯講透了:這場戰爭,不在雲端,也不在模型,而在地面。誰能建得快,誰就先跑出工廠;誰電夠多,誰才能跑得持久。AI的未來,不在Demo視訊裡,而在那些每天運轉、吞吐億級token的超級工廠中。第四節|別再談AI泡沫,這是一場再工業化這幾年,幾乎每一次技術躍遷之後,都會有人問:這會不會是下一輪AI泡沫?面對這個問題,黃仁勳沒有直接否認泡沫的存在。但他用了另一個更大的詞來回應:這不是泡沫,這是一次真正的再工業化。01|AI不是虛擬經濟,是實體工業從市場角度看,AI無疑有估值泡沫的成分。但黃仁勳的判斷更偏物理現實而非市場情緒:每個AI模型背後,都對應數千塊GPU每個推理系統,都需要土地、電力、冷卻系統、調度平台每個產品形態的進化,都對應一次工廠、晶片、基礎架構的迭代這些不是PPT上的路線圖,而是真正要投入資本、建設基礎設施、部署工業系統的東西。他說:我們造的不是軟體,是重量級工業系統。02|這不是技術泡沫,而是基礎設施周期的重啟黃仁勳判斷,未來10年,AI工業的最大機會不在模型迭代,而在:新一代算力中心的規模化部署新能源與算力的結合(如核能、地熱)工業GPU的模組化複製讓不同國家建立自己的AI主權系統這些描述,和上世紀美國推動電氣化、煉油廠、州際高速公路系統非常相似。他說得很直接:這是一場真正意義上的再工業化。而不是科技公司講一個新故事。03|企業要為AI自建電廠:前所未有的產業訊號黃仁勳在訪談中透露了一個趨勢:我們不能只依賴電網。我們必須自己發電,在自己的資料中心裡解決供電問題。這句話的意思是:企業要在電表之後,自己建發電系統。這不是誇張,是現實判斷。當AI工廠的耗電量大到不能依賴公共電網時,企業就必須擁有自己的能源調度能力,甚至自建電廠。這是前所未有的產業訊號:網際網路公司租伺服器,AI公司也要建電廠。04|這場工業化,重新定義了“工業”本身當大眾還在談AGI來不來,黃仁勳已經提醒我們:誰的模型最強,不重要; 誰先把模型跑起來,才重要。而能不能跑起來,取決於:有沒有自己的電有沒有自己的工廠能不能快速複製部署這是一場被誤讀的革命。它不是科技泡沫,而是產業基礎設施的重分配周期。就像20世紀初的電氣化、50年代的石化工業、90年代的網際網路基建一樣,這一輪AI工業化,正在重新定義:什麼是基礎設施(從雲到電廠)什麼是核心資產(從演算法到工廠)什麼是競爭壁壘(從技術到部署速度)黃仁勳沒有花太多時間談論模型能力、參數量、多模態的邊界。他更關注的是:誰能把這套工業系統率先跑通,誰就能定義下一個時代的遊戲規則。結語|AI紅利,落在誰的土地黃仁勳把AI工業化從雲端拉回地面。從想像,落到土地。從演算法,落到建廠。從估值,落到電網。這不是泡沫,是一場已經打響的基礎設施戰役。誰建得更快,誰電夠足,誰就掌握下一輪AI的收益分配權。這場競賽,不在矽谷的發佈會上,而在每一個正在破土動工的AI工廠裡。 (AI深度研究員)
黃仁勳與紅杉資本對談:AI工廠與智能體AI,正重塑勞動力市場與人力資源體系
資訊來源:Citadel Securities《全球市場的未來 2025:AI與下一輪增長前沿》時間:2025年10月6日|地點:紐約 Casa Cipriani一、從晶片製造到勞動力結構:不只是技術的對話2025 年 10 月初,Citadel Securities 在紐約舉辦了《全球市場的未來 2025》(Future of Global Markets 2025)論壇。在這場聚焦“AI與下一輪增長前沿”的活動中,輝達(NVIDIA)創始人兼CEO 黃仁勳(Jensen Huang)與 紅杉資本(Sequoia Capital)合夥人 Konstantine Buhler展開了長達一個多小時的對談。這場被外界視為“資本與算力的思想交匯”的對話,並沒有只停留在硬體、模型或市場規模的層面,還延伸到了一個重要的問題:AI 不僅在改變產業,也正在改變“組織與勞動力”的形態。黃仁勳在現場提出,AI 的下一輪影響將不只是演算法迭代,而是結構性地重塑整個勞動力體系。二、從資料中心到AI工廠:生產力的邏輯變化黃仁勳提出了一個正在快速取代“資料中心”的新概念——“AI工廠(AI Factory)”。這不僅是術語的變化,而是商業邏輯的根本轉向。“傳統資料中心是一個成本中心(Cost Center),它儲存和傳輸資訊;而AI工廠是一個利潤中心(Profit Center),它製造智能並創造收入。”他解釋道,一個資料中心的能耗上限是確定的——例如 1 吉瓦(gigawatt)。若你的AI基礎設施能效比競爭對手高出三倍,那麼在同樣的能源消耗下,你的公司就能產出三倍的智能與利潤。“這就是我稱之為工廠的原因,它不是資料中心。它是一個工廠,他們用它來賺錢。”他還分享了一段有趣的往事:輝達推出首台 DGX-1 超級電腦時,他親自將機器交付給當時在 OpenAI 的埃隆·馬斯克(Elon Musk),並笑稱自己沒想到第一位客戶竟然是一個“非營利組織”。這一故事象徵著AI產業的轉折點:AI不再只是算力服務,而是一種新的製造業形態——製造智能。三、AI走進勞動力市場:從工具到“數字同事”在這場對話中,黃仁勳提出——AI 將首次系統性地進入一個過去技術難以觸及的領域:全球勞動力市場。他預言,這個市場的規模高達 100兆美元,而 AI 的介入將帶來前所未有的結構性變化:“未來的企業勞動力,將由人類員工與數字員工(Digital Humans)共同組成。”他所說的“數字員工”,並不是今天常見的自動化系統或聊天機器人,而是一種能夠理解業務語境、具備決策能力、可以持續學習的智能體(Agentic AI)。他稱這種新型勞動力為 “智能體AI”,並列舉多個角色:數字軟體工程師(Digital Software Engineer)數字護士(Digital Nurse)數字行銷人員(Digital Marketer)數字法務顧問(Digital Counsel)在他看來,隨著智能體勞動力加入,企業組織結構的邊界將被重新定義:勞動力的核心不再僅是人力,而是“人類智能 + 機器智能”的組合;組織的管理體系將從“人力管理”轉向“智能協作管理”;企業文化、培訓體系、績效機制都將被重構。四、從IT部門到“AI員工的人力資源部”在對談中,黃仁勳分享了他在輝達內部的一個設想——隨著AI系統數量和複雜度的增加,未來的 IT 部門將承擔起類似“AI員工HR”的角色:“我告訴我們的 CIO,他們未來將成為 AI 員工的人力資源部。這些數字員工將與我們的生物員工一起工作,這就是未來公司的樣子。”組織內部的人力資源邊界正在擴展:招聘(Selection):企業將從不同AI平台挑選合適的智能體(如 OpenAI、Anthropic、Harvey、Cursor 等),或訓練自研模型;入職(Onboarding):通過微調(fine-tuning)和強化學習(RLHF)讓AI理解企業文化、價值觀與業務流程;績效管理(Evaluation):根據AI輸出的精準率、響應速度、決策質量設定考核標準;迭代與離職(Offboarding):像員工輪崗一樣,AI模型將持續升級或被替換。這不是“機器人取代人類”的故事,而是組織開始學會管理智能體。五、對勞動力市場與HR職能的系統衝擊黃仁勳的觀點,不只是對技術的展望,更是對整個用工生態的再定義。從他的表述中,可以歸納出AI對勞動力市場和人力資源管理的四個核心影響方向:1. 勞動力結構從“單一人類”轉向“混合智能”企業不再只依賴僱員數量,而是計算“人機混合產能”。AI代理的工作時長、響應速度和持續學習能力,使得組織邊界被大幅擴展。2. HR的職能邊界將重新劃分傳統HR關注人類生命周期管理;未來HR需要與IT部門共管“數字勞動力”。包括模型選擇、授權、訓練反饋、倫理監管、資料安全等。3. 企業文化需要數位化嵌入如果AI要與人協作,它必須“理解文化”。企業文化將從理念轉化為可學習的語料、prompt範本、反饋機制,成為演算法訓練的一部分。4. 新的信任機制與領導力形態管理者將面臨新的領導力議題:如何協調人類與AI的分工?如何建立信任?如何在演算法的確定性與人性的模糊性之間平衡?這意味著,未來的領導力不僅是“帶人”,而是在不同類型的智能之間建立合作秩序。六、現實約束與理性判斷從趨勢看,黃仁勳的觀點符合當前AI發展的方向,但從落地角度,它仍面臨多重挑戰:法律與倫理邊界尚未確立:AI不具備主體資格,責任與資料安全問題複雜。組織文化嵌入難度大:讓AI真正理解企業價值觀仍需要大量語義建模。管理認知尚未匹配:多數企業HR與IT仍在各自體系中運作,缺乏協同機制。“AI員工上班”的未來並非明天到來,但它已經在技術與制度之間,成為一種不可逆的方向。這將是一場技術與管理的雙重革命,也是人力資源體系必須正面迎接的結構性轉折。 (AI組織進化論)
【GTC】AI工廠正讓美國製造業加速回流:黃仁勳在輝達GTC大會的開場演講
2025年,NVIDIA GTC迎來了自2009年創辦以來最具變革性的一年。今年,GTC首次突破了傳統的"單一主場"模式,在全球四個城市連續舉辦——3月的聖何塞主場、5月的台北(與COMPUTEX合辦)、6月的巴黎,以及10月首次進入美國政治心臟華盛頓特區。這種"一年四城"的密集佈局在GTC 16年歷史上前所未有,且每一場都是黃仁勳親自壓陣,每場都有重磅產品發佈和戰略宣言。昨天華盛頓場的出現尤為意義深遠。在這場被Axios稱為"Nvidia's D.C. moment"的大會上,Jensen不再只是一位科技CEO,更像是國家AI戰略的設計師,他宣佈與美國能源部合作建設7座AI超級電腦,發佈與Nokia聯合開發的6G通訊平台Arc,強調"Made in America"的製造業回流。這場被稱為"AI超級碗"的盛會,見證了輝達在加速計算、量子計算、6G通訊、機器人技術等多個前沿領域的重大突破,以及"美國製造"的加速回歸。(視訊連結:NVIDIA GTC Washington, D.C. Keynote with CEO Jensen Huang,https://www.youtube.com/watch?v=lQHK61IDFH4&t=97s)核心觀點速覽1. AI不是工具,而是工作者:AI首次能夠使用工具完成工作,從幾兆美元的IT工具市場擴展到百兆美元的全球經濟2. Grace Blackwell NVL72性能革命:單GPU性能達H200的10倍,同時實現最低token生成成本,已獲得5000億美元的在手訂單3. 6G戰略突破:輝達Arc平台攜手Nokia重塑美國電信技術領導地位,覆蓋全球數百萬基站4. 量子-GPU融合:NVQLink架構獲17家量子公司支援,美國能源部合作建設7座AI超級電腦5. 三大擴展定律驅動AI爆發:預訓練、後訓練、推理思考三個階段疊加,創造兩個指數級增長的虛擬循環6. 極致協同設計:從單晶片到整個AI工廠的全端創新,Vera Rubin性能相當於100台DGX-17. 物理AI新紀元:三台電腦架構(訓練、模擬、運行)支撐人形機器人和Robotaxi產業化8. 九個月兌現承諾:Blackwell在亞利桑那州全面生產,120萬個元件、130兆電晶體實現美國製造9. 開源模型戰略:23個模型登頂榜首,支撐研究者和初創企業生態,確保美國在開源領域領先‍1. 加速計算的歷史拐點:CUDA-X生態的30年積累黃仁勳開場就強調,輝達發明了60年來首個全新的計算模型——加速計算。這場技術革命的背景是:傳統的摩爾定律走到了盡頭。"電晶體性能提升已經停滯近十年,雖然我們能塞進更多電晶體,但它們的速度和能效卻沒怎麼提升了。"正因為預見到這一趨勢,輝達在30年前就開始研發加速計算,發明了GPU和CUDA程式設計模型。CUDA-X庫的價值:輝達目前擁有350個不同的庫,每個庫都為特定領域重新設計了演算法,使得生態系統夥伴能夠充分利用加速計算。從計算光刻(cuLitho)到醫療影像AI框架(MONAI),從量子計算(cuQuantum)到基因組學處理,這些庫構成了NVIDIA的"公司瑰寶"。特別值得一提的是cuLitho庫,這是用來製造晶片的關鍵技術。經過近7年開發,現在被台積電、三星、ASML等晶片製造巨頭使用。這套完整的庫體系,為接下來要講的各個領域創新打下了堅實基礎。2. 6G領域:攜手諾基亞打造Arc平台,重塑美國電信技術在電信領域,黃仁勳宣佈了一項具有戰略意義的合作。輝達將與全球第二大電信裝置製造商諾基亞合作,推出全新的NVIDIA Arc產品線——空中無線網路電腦(Aerial Radio Network Computer)。Arc平台的技術架構Arc平台把三項核心技術整合到一起:Grace CPU(處理器)、Blackwell GPU(圖形處理器)和ConnectX網路技術,運行專門為無線通訊設計的軟體庫Aerial。簡單說,這是全球首個能同時干兩件事的電腦:既能做無線通訊,又能跑AI。"這是完全革命性的。我們稱之為NVIDIA Arc,諾基亞將與我們合作整合我們的技術,重寫他們的協議棧。"重塑美國電信技術領導地位這次合作意義重大。諾基亞掌握著7000項5G核心專利,與輝達攜手後,全球數百萬個通訊基站都能升級成支援6G和AI的新一代裝置。這意味著美國有機會重新奪回在無線通訊技術領域的話語權。Arc平台將實現兩大創新:AI for RAN(利用AI提高無線電頻譜效率)和AI on RAN(在無線網路上建立邊緣工業機器人云計算)。3. Quantum量子計算:NVQLink開啟量子-GPU融合時代黃仁勳講了一段歷史:1981年,物理學家Richard Feynman就夢想著造出能直接模擬大自然的量子電腦。40年過去了,去年行業終於有了關鍵突破——我們能造出一個穩定可靠、經過糾錯的邏輯量子位元了。在量子計算領域,輝達發佈了革命性的NVQLink量子-GPU互連架構。這一技術解決了量子計算面臨的關鍵挑戰——量子糾錯和經典-量子協同計算。技術突破的核心NVQLink的厲害之處在於:它能以極快的速度(每秒數千次)在量子電腦和GPU之間傳輸海量資料,這是做量子糾錯必須的速度。通過CUDAQ開放平台,研究人員不僅能糾錯,還能讓量子電腦和AI超級電腦協同工作。產業支援:17家量子計算公司支援NVQLink,8個美國能源部實驗室參與合作,包括伯克利、布魯克海文、費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺、太平洋西北和聖地亞哥等頂級科研機構。與美國能源部的戰略合作更重磅的消息是,美國能源部宣佈跟輝達一起建7座新的AI超級電腦,用來做國家級科研項目。美國能源部部長Chris Wright親自參與,可以看出美國政府鐵了心要保持科技領先地位。4. AI領域:新工業革命的核心引擎AI是工作者而非工具黃仁勳說了句很有深度的話:"AI不是工具,AI是幹活的。"這跟以前的軟體完全不一樣。Excel、Word、瀏覽器都是工具,需要人來用。但AI呢?它自己會用工具幹活。舉幾個例子:Perplexity的AI會用瀏覽器幫你訂旅行,Cursor這個AI助手會用VS Code幫NVIDIA的工程師們寫程式碼,Robotaxi裡的AI司機用的工具就是汽車。這意味著什麼?AI不再侷限於幾兆美元的IT工具市場,而是能參與到百兆美元的全球經濟大盤子裡了。AI的三大擴展定律與虛擬循環黃仁勳詳細闡述了AI發展的三個關鍵階段,這解釋了為什麼AI計算需求呈現爆炸式增長。三個技術階段預訓練:讓AI學習人類創造的所有資訊,這是基礎智能技能的培養後訓練:教授AI解決問題的技能,如數學、程式設計、逐步推理等推理思考:AI需要為每個人類進行即時思考,這需要巨大的計算資源"背誦記憶的東西很容易,背乘法表也不難,但真正的思考?那可太難了。"虛擬循環的形成現在的AI模型已經夠聰明了,聰明到大家願意掏錢用。這就形成了一個良性循環:AI越聰明,用的人越多;用的人越多,就需要更多計算資源;有了更多資源,AI又變得更聰明。兩個指數級增長疊在一起,這個飛輪已經轉起來了。AI工廠:生產智能的新型基礎設施黃仁勳在去年的GTC大會上首次提出了個很形象的概念——把AI資料中心叫"AI工廠"。這個工廠生產什麼?生產tokens(可以理解為AI思考的"單位")。跟傳統資料中心不一樣,AI工廠是專門設施,目標就是用最快速度、最低成本生產高品質的tokens。為什麼這個概念重要?因為在傳統IT時代,晶片產業只佔5%左右的份額——用Excel、刷網頁不需要太多計算能力。但AI不一樣,它需要即時理解你說的話、進行推理、制定計畫、執行任務,每一步都要生成大量tokens。這就需要全新的"工廠"基礎設施。極致協同設計:Grace Blackwell NVL72面對指數級增長的計算需求,NVIDIA推出了極致協同設計的Grace Blackwell NVL72系統,這是現代最極端的協同設計電腦。性能突破:第三方機構Semi Analysis測試顯示,Grace Blackwell單個GPU的性能是上一代H200的10倍!更厲害的是,雖然它看起來是最貴的電腦,但算下來生產每個token的成本反而是最低的。性價比最高。‍市場需求的爆炸性增長NVIDIA透露了個驚人數字:到2026年,Grace Blackwell和早期Rubin的訂單已經看得見5000億美元了。科技史上還從沒有公司能提前看到這麼多訂單。更直觀的對比:前四個季度就出貨了600萬個Blackwell GPU,而上一代Hopper整個生命周期才出貨400萬個。Blackwell的增長速度是Hopper的5倍。下一代架構:Vera Rubin在現場,黃仁勳親自展示了下一代Vera Rubin系統——第三代NVLink 72機架級電腦,採用完全無纜設計,算力達到100 petaflops。性能對比:一台Vera Rubin有多強?相當於100台九年前的DGX-1超級電腦,或者說把25個機架的計算能力塞進了一個櫃子裡。這是計算密度的革命性飛躍。Vera Rubin採用100%液冷設計,整合了多種處理器:兩個Vera CPU、四個Rubin GPU包、八個ConnectX-9網路卡、八個CPX處理器和BlueField-4資料處理器。5. Factories工廠:從AI工廠到智能製造的全面革命AI工廠的數字孿生:Omniverse DSXNVIDIA不再只是設計晶片,而是設計整個AI工廠。Omniverse DSX是建構和營運千兆瓦級AI工廠的藍圖,首次實現了建築、電力、冷卻與NVIDIA AI基礎設施堆疊的協同設計。數字孿生的威力通過與雅各布工程、西門子、施耐德電氣等合作夥伴的協作,整個AI工廠在物理建設之前就在Omniverse數字孿生中完成設計、模擬和最佳化。經濟效益:對於1千兆瓦的AI工廠,DSX最佳化可以每年帶來數十億美元的額外收入。NVIDIA正在弗吉尼亞州建設AI工廠研究中心,使用DSX測試和產品化Vera Rubin。美國製造的工廠革命與富士康在德克薩斯州休斯頓建設的機器人製造設施代表了"美國再工業化"的新篇章。整個工廠在Omniverse數字孿生中設計,使用Fanuc機械臂、AGV小車、視覺AI代理等,實現人機協作的未來製造。6. Models模型:開源生態的戰略意義黃仁勳特別強調,美國必須在開源AI模型領域保持領先。"我們有很厲害的專有模型,但也需要同樣厲害的開源模型。國家發展需要它,創業公司更離不開它。"NVIDIA目前在開源貢獻方面領先,擁有23個模型在排行榜上名列前茅,涵蓋從語言模型到物理AI模型,從生物學模型到機器人技術的各個領域。開源模型在過去幾年因為推理能力、多模態和蒸餾技術變得高度可用,現在是初創企業的生命線。研究人員需要開源,開發者需要開源,全球企業需要開源。每個行業都有自己的用例、資料和飛輪,開源模型使領域專業知識能夠嵌入到模型中。7. Enterprise企業:建構無處不在的AI生態戰略級企業合作演講中宣佈了多項重要的企業合作:Palantir Ontology合作與"全球最快的企業公司"Palantir合作,將輝達技術整合到Palantir Ontology平台中,實現大規模、高速度的資料處理,為政府國家安全和全球企業提供商業洞察。CrowdStrike網路安全與CrowdStrike合作打造"光速網路安全",在雲端和邊緣部署AI代理,確保在威脅出現時能夠瞬間檢測和響應。SaaS平台整合與ServiceNow(85%的企業工作流程)、SAP(80%的全球商業)、Synopsis、Cadence等關鍵平台深度整合,將這些SaaS轉變為代理式SaaS。雲端與邊緣的全覆蓋輝達強調"Nvidia is Everywhere"(輝達無處不在)的戰略。所有CUDA-X庫和開源模型都整合到AWS、Google Cloud、Microsoft Azure、Oracle等主要雲平台,確保開發者無論選擇那個雲,都能獲得一致的體驗。8. Robotics機器人:物理AI開啟新紀元三台電腦架構物理AI需要三台電腦的協同:訓練電腦(Grace Blackwell NVL72)用於訓練AI模型,模擬電腦(Omniverse)用於在數字孿生中模擬和測試,機器人電腦(Thor Jetson Thor)用於實際運行機器人。物理AI理解物理世界、物理定律、因果關係和對象持久性。這種AI不僅處理資料,還要在真實物理環境中採取行動。人形機器人:未來最大的消費電子產品合作夥伴生態:Figure人形機器人(成立僅3.5年,估值近400億美元)、Disney研究的Newton模擬平台、Agility的倉庫自動化機器人、強生的手術機器人等,構成了完整的物理AI生態系統。黃仁勳預測,人形機器人"很可能成為世界上最大的新消費電子市場之一,以及最大的工業裝置市場之一"。Robotaxi:輪子上的機器人NVIDIA Drive Hyperion平台與Uber宣佈合作,建構全球機器人計程車網路。該平台已被Lucid、奔馳、Stellantis等汽車製造商採用,為自動駕駛的大規模部署奠定了基礎。9. 美國製造:九個月實現的承諾整場演講主題:"美國製造,服務世界(Made in America, made for the world)"。黃仁勳透露,川普第一個要求就是"把製造業搬回來"。九個月後,Blackwell已經在亞利桑那州全面投產了。完整的美國生產鏈黃仁勳詳細展示了Blackwell的完整生產鏈條:亞利桑那:矽晶圓處理,2000億電晶體逐層建構印第安納:HBM記憶體堆疊組裝德克薩斯:機器人24小時工作,組裝超過1萬個元件加利福尼亞:ConnectX8網路卡和BlueField-3 DPU組裝"總共120萬個元件,2英里長的銅纜,130兆電晶體,重量近2噸。從亞利桑那州和印第安納州的矽片到德克薩斯州的系統,Blackwell和未來的NVIDIA AI工廠世代將在美國製造。"10. 結語:七大領域的全面佈局黃仁勳在演講最後系統總結了輝達的全面佈局:"我們今天討論了很多內容。"這些內容覆蓋了七大核心領域:加速計算:30年積累,350個CUDA-X庫,迎來虛擬循環的拐點6G:NVIDIA Arc平台與Nokia合作,重塑美國電信技術領導地位Quantum:NVQLink連接量子與GPU,17家量子公司支援,7座DOE超級電腦AI:從工具到工作者,三大擴展定律驅動虛擬循環,5000億美元訂單可視性Models:23個開源模型登頂榜首,支撐研究者和初創企業生態Enterprise:與Palantir、CrowdStrike等深度整合,AI無處不在Robotics:人形機器人、Robotaxi,開啟物理AI新紀元Factories:AI工廠DSX、智能製造MEGA,數字孿生驅動營運這場演講展現了兩個平台轉型的歷史性碰撞:一個是從通用計算轉向加速計算,另一個是從傳統程式設計轉向人工智慧。兩個轉型同時發生,產生了指數級疊加效應。輝達展現了部署的全端創新能力——從底層晶片到系統設計,從軟體庫到應用模型,從資料中心到整個工廠,全都自己設計。而這一切都在"美國製造"的框架下完成,9個月內把Blackwell生產線搬回美國。2025年的GTC不僅僅是產品發佈會的集合,更像是輝達在AI時代重新定義自己的全球角色,似乎將自己定位為這場AI“新太空競賽”的核心引擎。 (JER學家)
【GTC】黃仁勳 GTC大會演講精華:超級晶片、AI工廠與“美國利益”
預計Vera Rubin“超級晶片”將在明年進入量產階段。2025年10月29日清晨,輝達創始人兼首席執行官黃仁勳在華盛頓舉行的GTC華盛頓技術峰會上發表了重要演講。計算架構範式轉移演講中,黃仁勳回顧了計算行業的歷史轉折點。數十年來,CPU的性能一直遵循著可預測的縱向擴展(scale-up)增長軌跡。然而,隨著登納德縮放定律(Dennard scaling)——即通過不斷縮小電晶體尺寸來維持功率密度,從而降低功耗並提升性能——的終結,傳統的發展路徑已難以為繼。面對這些挑戰,輝達的答案是平行計算、GPU和加速計算架構。黃仁勳宣稱:“這個轉折點已經到來,而輝達已經準備就緒。我們認識到,通過引入能夠充分利用指數級增長電晶體的處理器,應用平行計算技術,並與順序處理的CPU協同工作,我們可以將計算力推向一個全新的維度——這個時代真正來臨了。”加速計算的實現,有賴於輝達精心建構的軟體基石——CUDA-X全端加速庫。這個龐大的軟體生態系統涵蓋了深度學習領域的cuDNN和TensorRT-LLM、資料科學平台RAPIDS(cuDF/cuML)、決策最佳化工具cuOpt、計算光刻解決方案cuLitho,以及量子與混合計算框架CUDA-Q和cuQuantum等關鍵領域。黃仁勳將這個完整的軟體生態系統譽為“公司最寶貴的財富”。它構成了輝達加速計算戰略的技術核心,為各行各業的計算轉型提供了底層動力。AI原生6G技術堆疊ARC-Pro演講中,黃仁勳強調,電信技術是經濟和國家安全的生命線,但目前全球大部分無線技術部署都依賴於他國的技術體系。黃仁勳表示:“這種核心通訊技術受制於人的局面必須結束,現在我們迎來了扭轉局面的歷史性機遇。”他相信,美國將“重新奪回通訊技術的主導權”。為實現這一戰略目標,輝達推出了革命性的NVIDIA ARC——一個以美國技術為核心的AI原生6G無線技術堆疊。該平台基於輝達的Aerial平台建構,整合了Grace CPU、Blackwell GPU和先進的網路元件,並通過加速計算實現了性能突破。據黃仁勳透露,輝達已與通訊裝置巨頭諾基亞(Nokia)達成深度戰略合作。諾基亞將為其未來的基站系統中整合NVIDIA ARC解決方案,該平台將賦能精確機器人控制、高精度天氣預報等關鍵應用。根據輝達官方部落格文章,該公司計畫將其商業級AI-RAN產品整合到諾基亞領先的無線接入網(RAN)產品組合中,使通訊服務提供商能夠在輝達平台上部署AI原生的5G-Advanced和6G網路。作為合作的一部分,輝達將以每股6.01歐元的價格認購1.664億股諾基亞新股,總投資額達10億美元。NVQLink:打通量子計算的“經絡”在探討計算科學前沿時,黃仁勳回憶起量子物理學家理查德·費曼四十年前的願景:創造一台能夠直接模擬自然規律的量子電腦。“現在我們能夠製備穩定、相干且可糾錯的邏輯量子位元,”黃仁勳指出。“然而,這些量子位元極其脆弱,需要強大的技術來支援量子糾錯和狀態解讀。”為實現量子計算與GPU計算的無縫融合,輝達推出了量子-GPU互連技術NVQLink。這項創新使得量子處理單元(QPU)能夠即時呼叫CUDA-Q計算框架,將通訊延遲降低到約4微秒的極致水平。NVQLink將量子處理器和控制硬體系統的多種方法直接連接到 AI 超級電腦上,能夠幫助量子從業人員克服在擴展硬體時所面臨的整合難題。作為一種開放系統架構,它可以將 GPU 計算與量子處理器進行緊密結合,從而為量子超級電腦帶來加速。在現場演示中,黃仁勳身後的大螢幕展示了一個包含17家領先量子計算公司和多家美國能源部實驗室的協同創新生態網路。“幾乎所有美國能源部下屬的實驗室都在與我們的量子計算生態系統合作夥伴緊密協作,將量子計算融入未來的科學發展藍圖。”攜手能源部共建新一代超算叢集黃仁勳宣佈,美國國家實驗室正步入由AI基礎設施驅動的科研新紀元。輝達已與美國能源部(DOE)達成戰略合作,將共同建造七台新一代超級電腦,為未來的科學研究提供強大的算力支撐。在具體佈局上,輝達將聯合美國能源部及甲骨文,在阿貢國家實驗室內建造DOE體系內規模最大的AI超級電腦叢集。該超算網路由兩大核心系統構成:Solstice系統將部署100,000顆輝達Blackwell GPU。建成後,它將成為全球最大的、面向公共研究的智能體科學平台。Equinox系統配備10,000顆Blackwell GPU,提供高達2200 EFLOPS的AI算力,專門服務於前沿科學計算、模擬模擬和開放式研究。這項重大的基礎設施投資,標誌著美國正式邁入“智能體驅動科學研究”的新時代,將極大提升其在國家安全、能源戰略、基礎科研等關鍵領域的創新能力和發展速度。本土製造戰略:在美國本土量產Blackwell晶片在產業佈局方面,黃仁勳透露了重要進展:Blackwell GPU已在美國亞利桑那州實現規模化生產,基於該晶片的整機系統也將在美國本土組裝。此舉標誌著輝達成功將其旗艦產品的製造從完全依賴台積電,轉向了美國本土的供應鏈體系。值得注意的是,本次發佈會的許多公告都帶有明確的政策導向。通過展示其在美國科技生態系統中的核心地位,輝達向政策制定者傳遞了一個關鍵資訊:限制晶片出口將直接損害美國的利益。黃仁勳在會前透露,選擇華盛頓作為會議地點是為了方便川普總統出席,但由於總統的亞洲之行未能如願。在市場表現方面,黃仁勳透露GPU需求依舊強勁:過去四個季度,輝達已出貨600萬顆Blackwell GPU,預計Blackwell及下一代Rubin晶片的總銷售額將達到5000億美元的規模。Vera Rubin超級晶片明年量產黃仁勳在會上展示了下一代Vera Rubin超級晶片,其上搭載了Vera CPU和兩顆巨大的Rubin GPU。該主機板還承載了大量的LPDDR系統記憶體,這些記憶體將與Rubin GPU上的HBM4記憶體協同工作。黃仁勳還表示,Rubin GPU已經返回實驗室,這意味著這些是由台積電生產的首批樣品。每個GPU周圍都有大量的供電電路,每個晶片將包含8個HBM4堆疊位點和兩個光罩尺寸(Reticle-sized)大小的GPU裸片。Vera CPU將配備88個定製ARM核心和176個執行緒。談到推出計畫,黃仁勳透露,他預計Rubin GPU將在明年大約同一時間或更早進入量產階段,也就是2026年第三或第四季度。與此同時,輝達的Blackwell Ultra “GB300” 超級晶片平台正在全速推出。規格方面,輝達Vera Rubin NVL144平台將採用兩款新晶片。Rubin GPU將使用兩個光罩尺寸大小的晶片,提供高達50 PFLOPS的FP4性能和288 GB的下一代HBM4記憶體。這些晶片將與一顆擁有88核定製Arm架構、176執行緒的Vera CPU以及高達1.8 TB/s的NVLINK-C2C互連技術一起配置。在性能擴展方面,輝達Vera Rubin NVL144平台將具備3.6 Exaflops的FP4推理能力和1.2 Exaflops的FP8訓練能力,比GB300 NVL72提升3.3倍;擁有13 TB/s的HBM4記憶體頻寬和75 TB的快速記憶體,比GB300提升60%;NVLINK和CX9的能力則提升2倍,分別達到最高260 TB/s和28.8 TB/s。第二個平台將於2027年下半年問世,名為Rubin Ultra。該平台將把NVL系統從144擴展到576。CPU架構保持不變,但Rubin Ultra GPU將採用四個光罩尺寸大小的晶片,提供高達100 PFLOPS的FP4性能,以及分散在16個HBM位點上、總計1 TB的HBM4e容量。在性能擴展方面,輝達Rubin Ultra NVL576平台將具備15 Exaflops的FP4推理能力和5 Exaflops的FP8訓練能力,比GB300 NVL72提升14倍;擁有4.6 PB/s的HBM4記憶體頻寬和365 TB的快速記憶體,比GB300提升8倍;NVLINK和CX9的能力則分別提升12倍和8倍,達到最高1.5 PB/s和115.2 TB/s。AI工廠革命:從工具到生產力實體“AI不是工具,而是生產力實體,”黃仁勳在演講中提出了這一革命性觀點。“歷史上第一次,技術擁有了執行勞動任務的能力,成為人類生產力的延伸。”這種從“工具”到“AI工人”的根本性轉變,正催生著全新的計算範式,進而帶來前所未有的職業形態和產業圖景。在黃仁勳的設想中,現代“AI工廠”遠非傳統資料中心所能代表。它是專為海量令牌(tokens)的生成、傳輸和服務而建構的全新綜合計算平台。這種平台級架構旨在實現前所未有的計算密度和能效比。面對AI算力需求的指數級增長,黃仁勳詳述了輝達的解決方案:“首先,我們重新定義電腦的形態,首次將單個計算系統擴展至整個機櫃的規模;其次,通過創新的AI乙太網路技術Spectrum-X,實現多個系統之間的無損橫向擴展。”隨著AI工廠的興起,機器人工程、量子科學等新興領域正在創造大量前所未有的就業機會。“創新的飛輪已經啟動,”黃仁勳強調。“接下來的關鍵是通過成本控制,大幅降低營運成本,最佳化使用者體驗,維持這個創新循環的持續運轉。”實現這一願景的關鍵在於“極致協同設計”,即同步設計全新的底層計算架構,涵蓋晶片、系統平台、軟體棧、AI模型和終端應用。為了展示這一理念的實物成果,黃仁勳在台上展示了新一代NVIDIA BlueField-4 DPU。這款整合了64核Grace CPU和ConnectX-9網路晶片的資料處理器,計算性能是其前代的六倍,將成為未來AI工廠的“作業系統核心”。這款革命性的DPU專為解除安裝和加速伺服器的網路、儲存和安全任務而設計。計畫於2026年首先部署在輝達的Vera Rubin機櫃級AI平台上,隨後向更廣泛的伺服器生態系統開放。Omniverse DSX:AI工廠的藍圖為應對大規模AI部署的挑戰,黃仁勳正式推出了Omniverse DSX——一個全面覆蓋從100兆瓦到數千兆瓦規模AI工廠設計與營運的綜合解決方案。該藍圖已在弗吉尼亞州的AI工廠研究中心得到充分驗證。為了使DSX參考設計更能適應不同的資料中心,輝達提供了兩種配置框架:DSX Boost(內部能效最佳化):通過智能電源管理和動態工作負載分配,在相同算力輸出下可降低約30%的能耗,或在相同功率預算下提升30%的GPU密度,實現令牌生成吞吐量的質的飛躍。DSX Flex(外部能源整合):將資料中心深度融入區域電網系統。通過智能調度可再生能源、平衡供需關係,可有效啟動美國電網中約100吉瓦(gigawatts)的閒置容量。Omniverse DSX旨在讓新進入者能夠快速建構AI工廠。該解決方案確保了輝達及其合作夥伴的硬體在處理器、網路和冷卻系統層面上開箱即相容。即使沒有專業經驗,也可以按照藍圖進行部署,最大限度地減少了定製化需求。值得注意的是,該架構不僅完美支援當前的Blackwell平台,還為下一代Vera Rubin等未來產品預留了相容性,為投資者提供了長期的技術保障。開放生態與產業融合演講中,黃仁勳強調了開放生態系統的核心價值:“開源模型和開放協作是全球創新的基石,為初創企業、研究機構和工業企業提供了持續的動力。”據悉,輝達今年已向開發者社區貢獻了數百個高品質的開源模型和資料集。輝達建構了一個覆蓋關鍵領域的開源模型體系:Nemotron: 專注於智能體推理與決策的AICosmos: 打破合成資料生成與物理AI的界限Isaac GR00T: 賦能機器人技能學習與跨場景泛化Clara: 重塑生物醫藥研究與臨床工作流這些模型家族將共同賦能下一代智能體系統、機器人技術和科學發現。黃仁勳強調:“我們持續投入開放生態,因為這是科研、創業和產業升級的共同需求。”現場展示的合作夥伴成果顯示了輝達技術廣泛的應用場景,涵蓋了Google雲、微軟Azure、甲骨文等雲端運算巨頭,ServiceNow、SAP等企業服務提供商,以及Synopsys、Cadence等專業領域的領導者。黃仁勳還宣佈了兩項戰略合作:與CrowdStrike合作建構新一代網路安全體系,通過Nemotron模型和NeMo工具鏈,實現從雲到邊緣的“光速”威脅檢測與響應;與Palantir達成深度技術整合,將加速計算架構、CUDA-X庫和開源模型融入Ontology資料平台,實現大規模資料處理的性能突破。為美國再工業化打造數字孿生平台物理AI正在推動美國的再工業化——通過機器人和智能系統改造工廠、物流和基礎設施。在一段視訊中,黃仁勳重點介紹了合作夥伴如何將其應用於實際工作中。“工廠本質上是一個機器人,它指揮著其他機器人製造機器人的東西,”他說。“這需要大量的軟體,除非你能在數字孿生中完成,否則幾乎不可能實現。”黃仁勳在台上特別提到了富士康的工作,該公司正在使用Omniverse工具設計和驗證位於休斯頓的新工廠,該工廠將用於製造NVIDIA AI基礎設施系統;卡特彼勒公司——該公司也在製造過程中應用數字孿生技術;佈雷特·阿德科克,他在三年半前創立了Figure AI公司,該公司為家庭和工作場所製造人形機器人,現在價值近40億美元;強生公司;以及迪士尼,該公司正在使用Omniverse訓練“有史以來最可愛的機器人”。自動駕駛:Uber和DRIVE Hyperion 10黃仁勳宣佈,Uber和NVIDIA正在合作建構自動駕駛出行的主幹網,目標是打造約10萬輛自動駕駛汽車,並從2027年開始擴展。NVIDIA DRIVE AGX Hyperion 10是4級參考架構:安全、可擴展、軟體定義,在一個網路上統一人類和機器人駕駛員。“未來,你就能叫到這樣的車了,”黃仁勳說,“這個生態系統將會非常豐富,Hyperion 或自動駕駛計程車將會遍佈世界各地。”“人工智慧時代已經開啟。Blackwell是它的引擎。美國製造,服務全球,”黃仁勳總結道。“感謝大家讓我們將GTC帶到華盛頓特區。我們希望每年都能舉辦這樣的活動,也感謝大家的貢獻,讓美國再次偉大。” (半導體產業縱橫)
【GTC】黃仁勳GTC 演講揭示AI工廠未來圖景 輝達市值向5兆美金邁進!
據外媒報導:NVIDIA  CEO黃仁勳在華盛頓特區舉行的 GTC 大會主題演講中,描繪了人工智慧(AI) 作為下一個工業革命的願景,並將其比喻為美國繼太空時代黎明以來最大的能力考驗。據報導:這是輝達 GTC 大會創辦以來首次移師美東地區舉辦。計算模式革命開始加速計算與摩爾定律終結黃仁勳回顧了美國歷史上的創新時代,從貝爾實驗室的電晶體的誕生、IBM System/360 到蘋果公司的個人電腦。他指出,半導體產業的基礎-登納德縮放 (Dinard scaling) 已在大約十年前停止。由於物理定律的限制,電晶體的性能和功耗增長已大幅放緩,這意味著摩爾定律 (Moore’s law) 無法持續。為瞭解決通用電腦無法解決的問題,輝達發明了一種新的運算模型 「加速運算」。輝達發明了 GPU 和 CUDA 程式設計模型,透過利用平行計算能力,將運算能力擴展到傳統 CPU 之外。而 CUDA 已是輝達的核心寶藏,歷經 30 年的發展,現已推出 CUDA 13,即將推出 CUDA 14,還有數億個 GPU 運行著完全相容的 CUDA。甚至,加速計算需要重新設計演算法、建立新的函式庫,並重寫應用程式,輝達也已針對不同領域如計算曝光 (cuLitho)、數值最佳化 (cuOpt)、醫療成像 (Monai) 和基因組學 (Ariel) 等,開發了 350 多個 CUDA X 函式庫。從工具到工作者轉變的 AI 工廠黃仁勳指出,AI 的影響遠超聊天機器人。AI 已經徹底改變了整個運算堆迭,從傳統的手寫程式碼轉變為機器學習,這是一種訓練資料密集的程式設計方式,運行在 GPU 上。他解釋,AI 的計算單元是 Token。Token 可以代表文字、圖像、影片、3D 結構,甚至化學物質、蛋白質和基因等。一旦資訊被 Token 化,AI 就能學習其語言和含義,進行翻譯和生成。過去,軟體產業是關於建立如 Excel 或瀏覽器這樣的工具。然而,AI 的本質是工作,AI 系統本質上是能夠使用這些工具的工作者。這種新的計算需求,需要一種新型的系統— AI 工廠。與過去用於儲存檔案和運行多種應用的通用資料中心不同,AI 工廠專門設計用於生產 Token,這些 Token 必須儘可能有價值,並且必須以極高的速率生產,同時具備成本效益。AI 發展正面臨兩個指數級成長壓力黃仁勳強調,AI的發展現正面臨兩個指數級成長壓力。首先,隨著 AI 模型從預訓練、後訓練到推論,運算需求呈指數級增長。其次,由於 AI 模型變得更加智慧,人們願意為之付費,這形成了一個良性循環。模型越智能,使用的人越多。使用越多,所需的計算資源就越多。為維持這個良性循環,並在摩爾定律結束之際大幅降低成本,輝達採用了極致協同設計(Extreme Co-Design)。這種設計從零開始,同時考慮新的電腦架構、晶片、系統、軟體、模型架構和應用程式。透過這種方法,輝達推出了 Blackwell 架構及 Grace Blackwell NVLink 72 系統。GB200 是第一個機架級 AI 超級電腦,而下一代則是 Vera Rubin。黃仁勳展示了 Vera Rubin 系統的設計,該系統將整個機架視為一台電腦,透過 NVLink 72 將 72 個 GPU (或144個GPU核心) 連接成一個巨大的虛擬 GPU。整體 Grace Blackwell NVLink 72 的性能提升是驚人的。Grace Blackwell 每個 GPU 的性能比 H200 高出 10 倍。儘管 GB200 是最昂貴的電腦之一,但其 Token 生成能力極強,能以全球最低的成本生產 Token。 這證明了極致協同設計的效益:性能提高 10 倍,成本降低 10 倍。輝達預計 Blackwell 和 Rubin 架構將帶來巨大的市場成長。到 2026 年,Blackwell 和 Rubin早期的累積業務可見度已達五千億美元,這是 Hopper 整個生命周期增長率的五倍。此外, NVIDIA 強調了將製造業帶回美國的承諾,Blackwell 和未來幾代 AI 工廠系統將在亞利桑那州、印第安納州和德克薩斯州等地製造。六大領域的創新突破與合作夥伴演講中,黃仁勳表示,輝達為了發展整個 AI 生態系,宣佈了在六個關鍵領域的重大進展:1. 6G 與電信基礎設施:輝達與諾基亞 (Nokia) 合作,推出了新的產品線 「NVIDIA Arc」(空中無線電網路電腦,Aerial Radio Network Computer)。「NVIDIA Arc」 結合了 Grace CPU、Blackwell GPU 和 C onnectX 網路,運行 Aerial 函式庫。諾基亞將採用 「NVIDIA Arc」 作為其未來基地台,並能升級全球數百萬個 Airscale 基地台,實現 6G 和 AI 功能。2.量子計算:量子計算的未來是 GPU 超算與量子處理器 (QPU) 的協同工作。為此,輝達發佈了 NVQLink,這是一種新的互連架構,能夠直接連接量子處理器和 NVIDIA GPU。 NVQLink 能夠以每秒數千次的速度傳輸 TB 級資料,以進行量子錯誤修正 (Quantum Error Correction) 和 AI 校準。目前,平台已得到 17 家量子計算公司和幾乎所有美國能源部 (DOE) 實驗室的支援。3.企業運算與網路安全:AI 將極大地增加網路安全挑戰,需要更強大的防禦者。輝達與 CrowdStrike 合作,建立雲端和邊緣的網路安全 AI 代理。此外,輝達還與 Palantir 合作,加速其 Ontology 平台,以便能夠以光速處理結構化和非結構化資料,用於國防安全和企業洞察。4.機器人與實體 AI(Physical AI):實體 AI 需要三種電腦,那就是用於訓練模型的 Grace Blackwell、用於模擬 (數位分身) 的 Omniverse 電腦,以及用於操作的 Jetson Thor 機器人電腦。輝達推出了 Omniverse DSX,作為建造和操作 Gigascale AI 工廠的藍圖。DSX 實現了計算、電力和冷卻設施的協同設計。輝達正與鴻海 Figure、Agility 和 Disney Research 合作,推出可愛的機器人 Disney Blue,其動作完全在 Omniverse 中模擬學習。5.自動駕駛:機器人正在輪子上實現商業化。輝達發佈了 Drive Hyperion 平台,這是一個標準化的感測器套件和計算平台,目的在讓全球汽車公司,如 Lucid、Mercedes-Benz、Stalantis 等能夠開發 Robo Taxi。輝達還宣佈與 Uber 合作,將 Drive Hyperion 汽車連接到全球網路。6.開源模型:開源模型是科學家、研究人員和新創公司的命脈。輝達一直以來在開源貢獻方面處於領先地位,在各大排行榜上擁有 23 個模型,涵蓋語言模型、實體 AI 模型到生物學模型。黃仁勳最後總結,我們正經歷著兩次平台轉型,從通用計算到加速計算,以及從傳統手寫軟體到 AI。而輝達正在為 6G(ARC)、機器人汽車 (Hyperion) 和 AI 工廠 (DSX) 打造新的平台,並將製造業帶回美國。另據報導:黃仁勳演講後,輝達28日股價收盤上漲近5%,市值增加超過2,300億美元,總市值達到4.89兆美元,盤中一度觸及4.94兆美元,直逼5兆美元新突破!輝達將有望成為全球第一家市值突破5兆美元的公司。 (芯聞眼)